paint-brush
La Moderación en el Metauniverso es el Trabajo Más Repugnante del Mundopor@strateh76
1,097 lecturas
1,097 lecturas

La Moderación en el Metauniverso es el Trabajo Más Repugnante del Mundo

Demasiado Largo; Para Leer

La cuestión de dónde se les puede dar plena autonomía a los usuarios y dónde se les debe monitorear se ha debatido durante casi dos décadas. Comprender el comportamiento de los "avatares" en el espacio digital es más complicado que en la vida real. Un guardia de seguridad en un lugar público tiene suficientes razones claras para pedirle a un invitado que abandone el local o prohibirle permanentemente la entrada al lugar. Pero en el metauniverso, es un gesto de la llamada zona "gris": no es gran cosa pero desagradable pero desagradable.

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - La Moderación en el Metauniverso es el Trabajo Más Repugnante del Mundo
Shariy Ivan | Content marketer & Copywriter HackerNoon profile picture

Un guardia de seguridad en un lugar público tiene suficientes razones claras para pedirle a un invitado que abandone el local o prohibirle permanentemente la entrada al lugar. Él o ella puede hacer esto por pelear, dañar la propiedad, molestar a otros visitantes, molestar al personal o cualquier otra cosa.


Por otro lado, el trabajo del gorila en el metauniverso se organiza de manera diferente. Ni siquiera necesitas un físico sólido para hacer frente a los visitantes enloquecidos. Basta presionar un botón que apaga el micrófono del usuario o le niega el acceso al sistema.


Pero comprender el comportamiento de los "avatares" en el espacio digital es más complicado que en la vida real. Y es aún más difícil controlarlo.


La cuestión de dónde se les puede dar plena autonomía a los usuarios y dónde se les debe monitorear se ha debatido durante casi dos décadas. Y todavía no hay respuesta.


El problema puede parecer insignificante ahora, pero cuantos más miles de millones de dólares inviertan los inversores y las empresas tecnológicas en el desarrollo de nuevos espacios virtuales, más necesitarán una respuesta.


"Es como invitar a un montón de gente a tu casa, pero no tienes muebles". -Lorelle VanFossen


La empresa "Educators in VR" organiza docenas de eventos virtuales cada mes y asigna un equipo de moderadores para supervisar cada uno. Lo han visto todo en sus cuatro años en el trabajo.


“Los trolls y la gente disruptiva se creen nuevos. Piensan que es algo nuevo pararse frente a un escenario y darse la vuelta y masturbarse frente a todos con gestos con las manos, y creen que están inspirados. Bueno, después de haberlo visto 85.000 veces, ya está. -Lorelle VanFossen


Las historias de usuarios que insultan y acosan a otros jugadores son habituales en Internet. Algunos invitados asisten a eventos digitales simplemente para molestar a los demás. Por ejemplo, correr por la habitación, gritar comentarios racistas o incluso amenazar con "cortar el cuello de alguien".


Puede ser un desafío identificar solo al infractor, por lo que los moderadores se comunican entre sí a través de un servicio de audio como Discord. De esa manera, se advierten entre sí sobre usuarios sospechosos y deciden si el "avatar" ignora las reglas o no. Después de todo, puede vagar de un lado a otro, no porque quiera molestar a alguien, sino simplemente porque su sistema tiene "fallas".


La moderación en metauniverso es siempre un vals entre tratar de comprender los verdaderos motivos de los usuarios y tener que tomar decisiones rápidas.


Los moderadores apagan los micrófonos ante los "avatares" con perros ladrando de fondo, bloquean el paso a los que intentan subir al escenario, detienen un baile multitudinario de una canción de la Macarena, etc.



Algunos usuarios no tienen conocimientos técnicos y no saben que incluso sus acciones más sencillas en el mundo real se reflejan en el mundo virtual. Por ejemplo, al pasar de estar de pie a sentado, un personaje puede "golpear" el piso digital y elevarse en el aire cuando se pone de pie. Si una persona es inepta en el uso de auriculares, puede hacer que el "avatar" corra por la habitación accidentalmente.


Hay otro problema: los límites del comportamiento aceptable en los mundos real y virtual son diferentes. Si una persona con piel de color púrpura se presenta en una conferencia médica fuera de línea, probablemente se le pedirá que se vaya. En el metamundo, ni siquiera mirarán esto porque es solo una característica externa del personaje.


O, si una persona le da palmaditas en la cabeza a alguien en el mundo real, es probable que sus acciones sean inapropiadas. Pero en el metauniverso, es un gesto de la llamada zona "gris": no es gran cosa pero sí desagradable.


Hay demasiados matices, por lo que Educators in VR determina la severidad de la moderación según el evento. En las fiestas de entretenimiento, los moderadores intervienen solo en casos extremos y las sesiones de meditación en grupo tienen una política de "tolerancia cero". Allí, un "avatar" puede ser baneado simplemente por andar molestando mucho.


La propia Lorelle VanFossen inicialmente se opuso a restricciones tan severas, pero luego se dio cuenta de que estaban justificadas. Después de todo, para algunos, la meditación es una terapia diaria, mientras que para otros es una forma de tomar un descanso, aliviar el estrés después del trabajo y "remendar" su salud mental.


La política de moderación también depende de la propia plataforma. AltspaceVR, por ejemplo, se enfoca en comunidades profesionales, por lo que controla estrictamente el comportamiento. El juego multijugador VRChat, por otro lado, es famoso por la anarquía.


“Es el trabajo más repugnante, frustrante, estresante, dolor de cabeza y agotador para la salud mental del planeta”. -Lorell Vanfossen

Conclusión

Se desconoce cómo funcionará la moderación cuando millones de personas se congreguen en metauniversos. AltspaceVR tiene moderadores a tiempo completo, pero deja la mayor parte del trabajo a los usuarios. Meta también permite que los "avatares" bloqueen a los delincuentes por su cuenta. Pero en el futuro, es poco probable que los usuarios tengan suficiente tiempo y energía para controlar el comportamiento de innumerables personas.


La salida es la automatización. Por ahora, sin embargo, los algoritmos ni siquiera pueden manejar la toxicidad en las redes sociales basadas en texto. No está claro cómo funcionarán en un metauniverso, donde cada acción puede interpretarse de manera diferente.


También te aconsejo que leas: